在本文中,我们专注于使用神经网络的时间序列数据的生成。通常情况下,输入时间序列数据仅实现了一个(通常是不规则采样)路径,这使得很难提取时间序列特征,并且其噪声结构比I.I.D更为复杂。类型。时间序列数据,尤其是来自水文,电信,经济学和金融的数据,也表现出长期记忆,也称为长期依赖性(LRD)。本文的主要目的是在神经网络的帮助下人为地生成时间序列,并考虑到路径的LRD。我们提出了FSDE-NET:神经分数随机微分方程网络。它通过使用大于一半的HURST索引的分数Brownian运动来概括神经随机微分方程模型,该方程式大于一半。我们得出FSDE-NET的求解器,并理论上分析了FSDE-NET溶液的存在和唯一性。我们对人工和实时序列数据进行的实验表明,FSDE-NET模型可以很好地复制分布属性。
translated by 谷歌翻译
Classification bandits are multi-armed bandit problems whose task is to classify a given set of arms into either positive or negative class depending on whether the rate of the arms with the expected reward of at least h is not less than w for given thresholds h and w. We study a special classification bandit problem in which arms correspond to points x in d-dimensional real space with expected rewards f(x) which are generated according to a Gaussian process prior. We develop a framework algorithm for the problem using various arm selection policies and propose policies called FCB and FTSV. We show a smaller sample complexity upper bound for FCB than that for the existing algorithm of the level set estimation, in which whether f(x) is at least h or not must be decided for every arm's x. Arm selection policies depending on an estimated rate of arms with rewards of at least h are also proposed and shown to improve empirical sample complexity. According to our experimental results, the rate-estimation versions of FCB and FTSV, together with that of the popular active learning policy that selects the point with the maximum variance, outperform other policies for synthetic functions, and the version of FTSV is also the best performer for our real-world dataset.
translated by 谷歌翻译
Diagnostic radiologists need artificial intelligence (AI) for medical imaging, but access to medical images required for training in AI has become increasingly restrictive. To release and use medical images, we need an algorithm that can simultaneously protect privacy and preserve pathologies in medical images. To develop such an algorithm, here, we propose DP-GLOW, a hybrid of a local differential privacy (LDP) algorithm and one of the flow-based deep generative models (GLOW). By applying a GLOW model, we disentangle the pixelwise correlation of images, which makes it difficult to protect privacy with straightforward LDP algorithms for images. Specifically, we map images onto the latent vector of the GLOW model, each element of which follows an independent normal distribution, and we apply the Laplace mechanism to the latent vector. Moreover, we applied DP-GLOW to chest X-ray images to generate LDP images while preserving pathologies.
translated by 谷歌翻译
Off-policy evaluation (OPE) attempts to predict the performance of counterfactual policies using log data from a different policy. We extend its applicability by developing an OPE method for a class of both full support and deficient support logging policies in contextual-bandit settings. This class includes deterministic bandit (such as Upper Confidence Bound) as well as deterministic decision-making based on supervised and unsupervised learning. We prove that our method's prediction converges in probability to the true performance of a counterfactual policy as the sample size increases. We validate our method with experiments on partly and entirely deterministic logging policies. Finally, we apply it to evaluate coupon targeting policies by a major online platform and show how to improve the existing policy.
translated by 谷歌翻译
一些增强算法(例如LPBOOST,ERLPBOOST和C-ERLPBOOST)的目的是通过$ \ ell_1 $ -norm正则化解决软边距优化问题。 LPBoost在实践中迅速收敛到$ \ epsilon $ approximate解决方案,但众所周知,在最坏的情况下,$ \ omega(m)$迭代会在其中$ m $是样本量。另一方面,保证ErlpBoost和C-erlpBoost在$ O(\ frac {1} {\ epsilon^2} \ ln \ ln \ frac {m} {m} {m} {\ nu} {\ nu} {\ nu})中保证将收敛到$ \ epsilon $ -Approximate解决方案$迭代。但是,与LPBoost相比,每次迭代的计算非常高。为了解决这个问题,我们提出了一个通用的增强方案,将Frank-Wolfe算法和任何次要算法结合在一起,并在迭代上互相切换。我们表明该方案保留与ERLPBoost和C-ErlpBoost相同的收敛保证。一个人可以合并任何次要算法以改进实践。该方案来自增强算法以进行软边距优化的统一视图。更具体地说,我们表明lpboost,erlpboost和c-erlpboost是Frank-Wolfe算法的实例。在实际数据集的实验中,我们方案的实例之一可利用次级算法的更好更新,并与LPBOOST相当地执行。
translated by 谷歌翻译
基于量子的通信中的当前技术将量子数据的新集成与经典数据进行混合处理。但是,这些技术的框架仅限于单个经典或量子任务,这限制了它们在近期应用中的灵活性。我们建议在需要经典和量子输入的计算任务中利用量子储存器处理器来利用量子动力学。该模拟处理器包括一个量子点网络,其中量子数据被入射到网络中,并且经典数据通过一个连贯的字段刺激了网络进行编码。我们执行量子断层扫描和经典通道非线性均衡的多任务应用。有趣的是,可以通过对经典数据的反馈控制以闭环方式进行断层扫描。因此,如果经典输入来自动力学系统,则将该系统嵌入封闭环中,即使访问对外部经典输入的访问被中断也可以处理混合处理。最后,我们证明准备量子去极化通道是一种用于量子数据处理的新型量子机学习技术。
translated by 谷歌翻译
从出生到死亡,由于老化,我们都经历了令人惊讶的无处不在的变化。如果我们可以预测数字领域的衰老,即人体的数字双胞胎,我们将能够在很早的阶段检测病变,从而提高生活质量并延长寿命。我们观察到,没有一个先前开发的成年人体数字双胞胎在具有深层生成模型的体积医学图像之间明确训练的纵向转换规则,可能导致例如心室体积的预测性能不佳。在这里,我们建立了一个新的成人人体的数字双胞胎,该数字双胞胎采用纵向获得的头部计算机断层扫描(CT)图像进行训练,从而从一个当前的体积头CT图像中预测了未来的体积头CT图像。我们首次采用了三维基于流动的深层生成模型之一,以实现这种顺序的三维数字双胞胎。我们表明,我们的数字双胞胎在相对较短的程度上优于预测心室体积的最新方法。
translated by 谷歌翻译
我们提出了一种新方法,以正式描述统计推断的要求,并检查程序是否适当使用统计方法。具体而言,我们定义了信仰Hoare逻辑(BHL),以形式化和推理通过假设检验获得的统计信念。对于假设检验的Kripke模型,此程序逻辑是合理的,并且相对完成。我们通过示例证明,BHL对于假设检验中的实际问题有用。在我们的框架中,我们阐明了通过假设检验获得统计信念的先前信念的重要性,并讨论了程序逻辑内外统计推断的全部图片。
translated by 谷歌翻译
自动基于图像的疾病严重程度估计通常使用离散(即量化)严重性标签。由于图像含糊不清,因此通常很难注释离散标签。一个更容易的替代方法是使用相对注释,该注释比较图像对之间的严重程度。通过使用带有相对注释的学习对框架,我们可以训练一个神经网络,该神经网络估计与严重程度相关的等级分数。但是,所有可能对的相对注释都是过敏的,因此,适当的样品对选择是强制性的。本文提出了深层贝叶斯的主动学习与级别,该级别训练贝叶斯卷积神经网络,同时自动选择合适的对进行相对注释。我们通过对溃疡性结肠炎的内窥镜图像进行实验证实了该方法的效率。此外,我们确认我们的方法即使在严重的类失衡中也很有用,因为它可以自动从次要类中选择样本。
translated by 谷歌翻译
我们介绍了一种新型的多视图立体声(MVS)方法,该方法不仅可以同时恢复每个像素深度,而且还可以恢复表面正常状态,以及在已知但自然照明下捕获的无纹理,复杂的非斜面表面的反射。我们的关键想法是将MVS作为端到端的可学习网络,我们称为NLMVS-NET,该网络无缝地集成了放射线线索,以利用表面正常状态作为视图的表面特征,以实现学习成本量的构建和过滤。它首先通过新颖的形状从阴影网络估算出每个视图的像素概率密度。然后,这些每个像素表面正常密度和输入多视图图像将输入到一个新颖的成本量滤波网络中,该网络学会恢复每个像素深度和表面正常。通过与几何重建交替进行交替估计反射率。对新建立的合成和现实世界数据集进行了广泛的定量评估表明,NLMVS-NET可以稳健而准确地恢复自然设置中复杂物体的形状和反射率。
translated by 谷歌翻译